# Webui-2-transcrições ## Video 1: [https://www.youtube.com/watch?v=cRLsrdxNE-c (English)](https://www.youtube.com/watch?v=cRLsrdxNE-c) ### Música É possível utilizar event emitters em filtros. Neste código, demonstra-se um exemplo no qual é contado o número de tokens de entrada e saída. ```markdown # Future A classe `Future` possui uma variável global `tokenMessage` para concatenar o contador de tokens de entrada com o contador de tokens de saída. O contador de tokens de entrada ocorre antes da resposta do modelo, enquanto o contador de tokens de saída ocorre depois. ``` Em seguida, temos a função `CountToken`, que conta o número de tokens num texto. ```markdown # CountToken A função `CountToken` recebe um texto como entrada e um nome de codificação (entre os quais "valves" é o padrão). Retorna o número de tokens no texto. ``` A função `Inlet` conta o input do usuário, o adiciona à variável global `tokenMessage` e depois utiliza o event emitter para exibir o contador de tokens na status. ```markdown # Inlet A função `Inlet` é acionada sempre que um input do usuário for recebido. Conta o número de tokens no último mensagem do usuário e o acrescenta à variável global `tokenMessage`. ``` A função `Outlet` calcula o contador de tokens de saída, acrescenta-o à variável global `tokenMessage` e depois utiliza o event emitter para atualizar a status com o total de tokens. ```markdown # Outlet A função `Outlet` é acionada após o modelo produzir uma resposta. Conta o número de tokens no último mensagem do assistente e o acrescenta à variável global `tokenMessage`. ``` Por fim, o vídeo mostra como utilizar event emitters de forma sincronizada em um contexto assincrono, pelo uso de uma função `sync`. ```markdown # Utilização de Event Emitters de forma Asíncrona Para utilizar event emitters de forma assíncrona, enrobe a morte (destruição) de um event emitter em uma função `sync`. ``` ## Video 2: [https://www.youtube.com/watch?v=K3J3GCKJBN0 (English)](https://www.youtube.com/watch?v=K3J3GCKJBN0) ## Video 3: [https://www.youtube.com/watch?v=dLgOn7a_Hfk (English)](https://www.youtube.com/watch?v=dLgOn7a_Hfk) ``` **NOTA: ** Este resumo contém algumas modificaçãos pequenas do texto original para melhor legibilidade e formatação em Markdown. # Vídeo 4: <https://www.youtube.com/watch?v=zdxbY9vTJ30 (Idioma: en) ## Ferramentas e Event Emiter ### Ferramentas As **ferramentas** permitem expandir as capacidades da AI ou do Llm. As **ferramentas** são utilizadas para obter informações e, em seguida, formar a resposta para o usuário. A **função** da **ferramenta** é para a AI utilizar. As **funções** são utilizadas para controlar e melhorar o processo da UI Web. Aqui estão algumas funções comuns: - Funções de entrada: Screen, management e ADD (gerenciar e adicionar o fluxo de entrada) - Funções de suporte de tipo Futures: Gerenciar o processo de entrada e saída da UI Web Uma nova característica recente é o **event emiter**. O **event emiter** permite adicionar novas informações ao chat ou anexar conteúdo ao chat. Além disso, o **event emiter** não remove qualquer texto, ele apenas adiciona um texto ao aplicativo. Existem dois tipos de eventos: 1. **Status**: Mostra uma informação na interface do usuário, indicando o estado atual da AI, por exemplo, que a AI está trabalhando para obter uma resposta. 2. **Mensagem**: Adiciona uma mensagem ao chat e mostra ao usuário a resposta composta pela AI. O **event emiter** pode ser implementado tanto em **ferramentas** quanto em **funções**. ### Demonstração do Event Emitor Para ver o **event emitor** em ação, acesse a área de trabalho e adicione um novo **ferramenta**. Dê um nome (ferramenta de informação de produto, por exemplo), uma descrição e, em seguida, clique no botão "Add Tool". Na parte superior da tela, você verá o botão "Add Tool". Neste exemplo, vou demonstrar o uso da **ferramenta** "Informações de Produto". Esta **ferramenta** é chamada quando perguntado sobre produtos. Não haverá nenhum código, mas aqui está o esqueleto da **ferramenta**: ```python class Tool: def get_product_information(self, *args, **kwargs): # wonderful code here ``` Neste exemplo, teremos uma função chamada `get_product_information`. É importante fornecer uma boa descrição para a função, pois assim a AI saberá o que esta função faz. Um exemplo de uso desta **ferramenta** poderia ser uma loja de café: você poderá equipar a AI com uma **ferramenta** para pesquisar informações sobre os produtos antes de fornecer uma resposta para o usuário. Garantiu? Se você não estiver familiarizado com o funcionamento do **event emitor**, é altamente recomendável que vamos buscar exemplos para melhorar a compreensão do tema. Por exemplo, copie o código abaixo e salve: ```python class Tool: def get_product_information(self): self. emit_event(status=True, message="Estou a obter informações dos produtos", done=False) time. sleep(2) self. emit_event(status=False, message="Obtenho informações sobre os produtos com sucesso", done=True) return "Suas informações de produto" ``` Neste exemplo, estamos usando o método `emit_event()` para manifestar o status de trabalho da AI. Nós enviamos duas mensagens diferentes: a primeira indica que a AI está trabalhando para obter as informações dos produtos, enquanto a segunda dizentes que a AI obteve as informações com sucesso. Como você pode ver, nós estamos usando o parâmetro `done` nas mensagens para indicar ao usuário que a funcionalidade de recuperação de informações foi concluída, o que ajuda no gerenciamento da experiência do usuário. Agora, tente executar o código acima para ver o **event emitor** em ação. Vamos facilitar seu trabalho implementando duas formas de visualização do **event emitor**: status e mensagem. status: ```python self. emit_event(status=True, message=f"{message}", done=False) ``` mensagem: ```python self. emit_event(status=False, message=message, done=True) ``` Assim, você verá o status da AI no momento que o evento ocorre (`status`) e uma mensagem em tela quando a resposta é retornada (`mensagem`). Essa é uma demonstração básica do funcionamento do **event emitor**. Há muito mais que podemos fazer com ele, e em uma prática futura, recomendo aprofundar mais sobre ele para criar uma interface de chat mais rica e dinâmica. ### Plano Claro para computação de IA A construção de um plano claro para computação de IA é crucial para várias razões: 1. Padrões Éticos * Com a tecnologia da IA avançando, surgem preocupações éticas em relação à privacidade, prejudício e contabilidade. Um plano público pode estabelecer quadro para directrizes éticas a fim de garantir o uso justo e responsável da IA. 2. Quadro Regulatório * Um plano completo pode ajudar os tomadores de decisão a criar regulamentos que se adaptem às velocitys rápidas de avanços tecnológicos, garantindo que as evoluções na IA estejam de acordo com os valores sociais e interesses públicos. 3. Confiança Pública * A transparência nos processos de IA já é essencial. Os usuários devem ser capazes de interrompê-la e pegar contato se necessário. #### Visão a longo prazo - Um plano claro para computação de IA envolve considerar várias dimensões e implicações. Aqui estão algumas pontas a se reflectir: 1. Visão a longo prazo * ter uma visão clara a longo prazo para a IA é indispensável na determinação da direção da pesquisa e desenvolvimento, além de estabelecer metas e objetivos para o campo. #### Comunidade [Música] Acede ao plataforma através deste botão, mas veja-se a configurar as tua models TTS e STT adequadamente. [Vídeo 5: ](https://www.youtube.com/watch?v=5Lpd2o1TM7A) (Linguagem: en) [Música] #### Modelos pré-treinados A plataforma facilita a gestão de documentos. Entre neste colecção e dae um olhar. Existe uma seção chamada modelos pré-treinados onde encontra-se todas as modelos emitidos apropriados para utilização com interfaces web abertas. Aqui vamos: 1. Carga o modelo aberto, e será carregado e cria-se para si uma base de dados de embaixada de vectores. 2. Importar ou criar uma nova base de dados clicando nesta seta. Dá-lhe um nome, NBA Knowledge (descrevendo a base de dados como sendo útil na resposta a perguntas empresariais). 3. Cargue arquivos, uma pasta inteira, ou acrescente manualmente o conteúdo de texto. Neste exemplo, carge uma pasta inteira de fontes de MBA. 4. O processo de indexação e criação de embaixada de vectores pode levar algum tempo. #### Configuração de Modelos de Embaixada 1. Acesse a página de administração (painel de administração) para configurar modelos de embaixada. Acesse o painel de administração a partir da página de definições e documentos. 2. Nesta página, permite especificar os modelos de embaixada e se deseja usar modelos híbridos ou não. O padrão é Transformer de sentenças. 3. Especifique os models Ting que deseja utilizar, mas eles devem ser baseados em ESD. 4. Visite a [colecção de modelos pré-treinados](https://github.com/sentence-transformers/sentence-transformers/releases) na GitHub para comparar a performança de diferentes modelos em 14 conjuntos de dados ou busca semântica, assim como a velocidade também. #### Reclassificação Quando a reclassificação do sistema, ele irá recuperar X números de fragmentos que são os mais próximos dos fragmentos da sua consulta mais relacionados. No entanto, obterá uma melhor performance quando também reclassificar os fragmentos selecionados, visto que existem vários modelos disponíveis para reclassificação. Para utilizar a reclassificação, selecione-a da Mt Leaderboard e escolha o modelo desejado. #### Base de dados Quando se deseja acessar a base de dados de colecção, introduza a sua pergunta e esoele a base de dados que deseja utilizar. Se o sistema falha em adicionar ficheiros ou fornecer resposta, isto pode resultar por não ter sido carregado corretamente ou a base de dados estar corrompida. Verifique se os ficheiros estão em ordem e a base de dados tenha sido actualizada para oferecer desempenho óptimo. # Vídeo 6: [YouTube](https://www.youtube.com/watch?v=8FChfBUilno) (Language: en) ## Olá a todos, sou P Orens, fundador de Cat Done YouTube. Hoje estamos em episódio 18 e, como sempre, vamos trazer-lhe insights e conhecimento aplicável para que possa Empower-se com a Inteligência Artificial e Inteligência Gerativa. Antes de começar, gostaria de anunciar que vamos realizar um webinar gratuito no dia 5 de Dezembro às 19: 00 EST. Será online, e o tema do webinar é o desenvolvimento de apps LLM para iniciantes. Pode se inscrever clicando [aqui](#) ou escaneado o código QR que vai levar-lhe para uma página Eventbrite onde pode se inscrever para este webinar. Para este episódio 18, vamos entrar novamente na Open RepB UI, já que houve atualizações significativas. Vamos falar sobre comunidades em que pode importar ferramentas que outras pessoas já carregaram, daí podendo acessar os códigos de graça. Isto é o que vamos fazer hoje. Vamos ainda dar uma olhada numa nova versão da base de conhecimentos que incluiquentos e modelos de encapsulamento. Em nosso terceiro tópico, vamos dar uma olhada em ferramentas e uma nova funcionalidade chamada Event Imits. Isso é legal que Hoff! Aí, vamos discutir ações, filtros e funções, e as ações são uma funcionalidade nova que permite-lhe criar um botão que irá ser posicionado abaixo da resposta da AI, tremendo facanha com as ações emrdie. No final, vamos tocar um pouco nos modelos de speech to text ou text to speech e o modo de conversa que você pode falar com a AI. Portanto, vai ter muitos assuntos hoje, e acho que vai ser útil. Mas, novamente, não esqueça de assinar o nosso Canal. Estamos em YouTube, LinkedIn, Facebook, e GitHub. ## Primeiro Tópico: Open Web UI Community A Open Web UI tem uma comunidade em que pode baixar ferramentas, modelos, prompts e funções que outros membros da comunidade carregaram. Vamos dar uma olhada nos modelos hoje. Espero que já tenha atualizado ou mesmo atualizado o seu plataforma Open Web UI Open Web U UI, pois isto é uma nova interface. A caixa de texto ao princípio da sessão agora está no meio da tela em vez de estar no fundo como era. Isto é muito semelhante à última atualização do chat GBT, pois é praticamente tudo semelhante em relação aos botões e à caixa de texto estarem no meio. Se for um administrador, pois eu sou, você terá um workspace à esquerda e quando você for lá, existe modelos, conhecimento, prompts, ferramentas e funções como sempre. Este é novo. Vamos falar sobre modelos nesta secção, mas vamos falar sobre a comunidade primeiro. Você pode clicar neste botão para acessá-la e ela vai abrir uma janela relacionada à Open Web UI Community. Antes de poder realmente baixá-lo, precisa-se inscrever. Depois de ter se inscrito, vai ter acesso a novas funcionalidades, características, modelos, ferramentas, prompts e outras coisas. Então, digamos que eu me interesso nisto chamado multi-agent. Irá entrar na sua página. Por favor, lembre-se de ser paciente com a velocidade do site, pois não tenho ideia do porquê, mas alle só tem de ter paciência. Este modelo é chamado multi-agent. Foi criado utilizando o Llama 3. 1 modelo do Hugging Face. É uma detalhada promessa de sistema e inclui prompts para sugerir Ed. A parte inferior poderá ver a representação JSON deste modelo também. Se se interessar por este modelo, clique "get, " e isto vai abrir a janela com a informação das suas áreas. Nome é multi-agent, Model ID é multi-agent-latest, Base model é LLama 3, e muito mais. Se estiver feliz com a informação, clique "save. " Agora o modelo foi criado com sucesso e vai aparecer na pilha de modelos no fundo. Se não quiser introduzir o seu URL na caixa, tem a opção de baixar um formato JSON. Assim, vou baixar ele agora. Agora vou colocar na minha utilização do modelo. Am refake a página e o multi-agent vai aparecer na pilha de modelos. Gostaria de utilizar o multi-agent para ajudá-me a escrever uma descrição de vaga? Vemos o que vai acontecer. ```markdown # Ajuda com a descrição de vaga Você: Faça com que eu escreva uma descrição de vaga para um Engenheiro Sénior de Inteligência Artificial. Agente: Estou feliz em ajudá-lo a escrever uma descrição de vaga para garantir que se crie uma descrição detalhada e precisa. Poderia por favor me fornecer a seguinte informação? - Título da vaga: Engenheiro Sénior de Inteligência Artificial - Responsabilidades: Desenvolver e manter aplicações baseadas em LM - Qualificação: Mestrado em campos relacionados e 3+ anos de experiência Após fornecer a informação, você clica em "Criar uma descrição de vaga" para obter a descrição. Nota: Esta resposta foi gerada pela Open RepB UI's multi-agent model. ``` # Gestão de Documentos com Open Web UI ## Visão Geral Este guia irá lhe guiar no uso do Open Web UI para a gestão de documentos e criação de bases de conhecimento. ### Pré-requisitos - Uma instalação funcional do Open Web UI - Familiarsidade com sintaxe Markdown ## Criação de uma Base de Conhecimento 1. **Criação de Base de Conhecimento**: Para criar uma nova base de conhecimento, clique no botão "Criar Base de Conhecimento" e dê-lhe um nome. Por exemplo, "Base de Conhecimento NBA". Esta base de conhecimento será usada para responder perguntas comerciais relacionadas com a NBA. 2. **Envio de Arquivos**: Pode enviar um diretório completo, sincronizar um diretório ou adicionar texto manualmente. Para este exemplo, vamos enviar um diretório que contém fontes da NBA. 3. **Índice e Embaralhamento Vectorial**: O Open Web UI irá índice e computar embaralhamentos de vetores para os arquivos enviados. Este processo pode demorar algum tempo, especialmente se houver muitos arquivos. ## Configuração de Modelos de Embaralhamento 1. **Acesso à Página Administrativa**: Navegue até a página administrativa para configurar os modelos de embaralhamento. 2. **Definição de Modelos de Embaralhamento**: Na página de configuração dos documentos, pode especificar os modelos de embaralhamento e se deseja habilitar pesquisa híbrida ou não. O predefinido é um transformador de frases, mas pode escolher outros modelos com base no repositório do Sentence Transformer no GitHub e esper. net. 3. **Mudança de Modelos de Embaralhamento**: Se decidir mudar o modelo de embaralhamento, lembre-se de que terá que recalcular seus documentos, pois diferentes modelos podem resultar em embaralhamentos de vetores diferentes. ## Desempenho e Modelos de Reposicionamento 1. **Modelos de Reposicionamento**: A habilitação de pesquisa híbrida dará acesso a um modelo de reposicionamento. Isto melhora o desempenho re-classificando as peças selecionadas após a busca inicial. 2. **Escolha de Modelos de Reposicionamento**: Pode encontrar modelos de reposicionamento adequados no quadro de classificação MTE. Escolha o modelo que melhor atenda às suas necessidades e copie o seu ID para a caixa do Open Web UI. ## Solução de Problemas Se encontrar problemas com desempenho lento ou falhas de envio, certifique-se de que a base de conhecimento esteja actualizada corretamente e que os documentos tenham sido enviados corretamente. Se necessário, regene as respostas para melhorar a precisão. Lembre-se de ser cuidadoso ao escolher modelos de embaralhamento, pois diferentes modelos podem produzir embaralhamentos de vetores diferentes. ## Conclusão O Open Web UI oferece uma ferramenta poderosa para a gestão de documentos e a criação de bases de conhecimento. Por entender como configurar modelos de embaralhamento e de reposicionamento, pode otimizar o seu desempenho para as suas necessidades específicas. Fique atento para mais atualizações e melhoramentos nas ferramentas e funções do Open Web UI! Não esqueça de subscrever os nossos canais YouTube, Facebook e GitHub para o conteúdo mais recente. # Open Web UI: Guia para Funções de Entrada, Emitter de Eventos, e Ferramentas Aprenda sobre as Funções de Entrada, Emitter de Eventos, e Ferramentas no Open Web UI para controlar e melhorar o seu processo de trabalho. ## Funções de Entrada As Funções de Entrada são utilizadas para controlar o fluxo do Open Web UI. Aqui está uma visão geral das Funções de Entrada e do recurso Emitter de Eventos. ### Emitter de Eventos O Emitter de Eventos permite adicionar informação adicional ao chat e anexar conteúdo ao chat. Diferentemente de mensagens regulares, um Emitter de Eventos não pode remover mensagens, portanto, ele só pode adicionar texto ao aplicativo. Há dois tipos de Emitters de Eventos: 1. **Status**: Exibe o status do processo do AI na interface do usuário. Ideal para a experiência do usuário, já que indica o status atual do trabalho do AI. 2. **Mensagem**: Adiciona uma mensagem à interface do chat. ### Exemplo de Função ``` class Ferramentas { async obterInformacaoDeProduto() { // Função de exemplo de informação do produto // . . . // Adiciona Event Emitter para status this. emit('status', { status: 'Aplicando a informação', done: false }); await this. sleep(2000); // Força um atraso para mostrar o efeito // Marque o status como 'finalizado' this. emit('status', { status: 'Finalizado a aplicação da informação', done: true }); // Devolve a informação do produto return this. informacaoDoProduto; } // Tratar erros utilizando cláusula try-catch async funcaoAlguma() { try { // Seu código aqui } catch (error) { // Trata o erro aqui } } } ``` ## Ferramentas As Ferramentas podem ser encontradas no espaço de trabalho sob a última guia. São utilizadas para controlar e estender as habilidades da plataforma Open Web UI. Um tipo de ferramenta é o Future. Os filtros são usados para manipular a entrada do usuário ou a saída do LLM, principalmente para adicionar, remover, ou formatar o conteúdo do objeto do corpo. ``` class Ferramentas { async obterInformacaoDeProduto() { // Código de exemplo das ferramentas // . . . } } ``` ## Ações As Ações são um tipo de função que criam um botão na interface do UI do chat inferior. Você também pode usar o Emitter de Eventos nas Ações. ``` class Acao { constructor() { // Inicialize as variáveis aqui } async funcaoDaAcao(emitidorDeEventos) { // Seu código aqui // Use o Emitter de Eventos emitidorDeEventos. emit('status', { status: 'Avaliando os dados', done: false }); // Seu código para obter dados do servidor // Use o Emitter de Eventos para marcar o status como 'finalizado' emitidorDeEventos. emit('status', { status: 'Dados analisados', done: true }); // Retorne o código HTML para o gráfico return ` <! -- Código HTML do gráfico --> `; } } ``` Para obter mais exemplos e ideias para as Ações, visite o site da comunidade. Ative as ações que criou para que sejam disponíveis para novos ch # Ferramentas de IA: Funções, Ferramentas e Áudio Esta guia lhe guia através do uso de diferentes ferramentas, funções e da característica de áudio da IA. ## Funções As funções são usadas para expandir as funções da interface web do usuário, melhorando as respostas da IA e fornecendo recursos adicionais. Por exemplo, disponemos da `Counttoken` função, que conta o número de tokens em um texto, e da `Filter` função, que permite-nos contar tokens tanto no input como no output. ### Contatoken Function A `Counttoken` função recebe um texto e um nome de codificação como parâmetros e devolve o número de tokens existentes no texto. ``` class Counttoken: def __init__(self, text, encoding_name): self. text = text self. encoding_name = encoding_name def count(self): # código para contar tokens no texto ### Function Inlet A função `Inlet` é chamada sempre que o usuário introduzir um comando no campo de texto. Ela captura a última mensagem do usuário e conta o número de tokens em que se encontra dentro dela, acrescentando o resultado à variável global `token_message` antes de exibi-la no estado. ``` class Inlet: def __init__(self): self. token_message = 0 def inlet(self, user_message): # código para gerenciar o input do usuário self. token_message += token_count(user_message) # código para exibir o contador de tokens no estado usando um emisor de eventos ### Function Outlet A função `Outlet` processa a saída do LLM e soma o número de tokens da saída à variável global `token_message`. É activada quando o LLM responde. ``` async def outlet(assistant_message): count_output_token = token_count(assistant_message) self. token_message += count_output_token # código para exibir o contador de tokens no estado usando um emisor de eventos ### Function Filter A função `Filter`, disponível durante a desabilitação das outras funções, nos permite contar o número de tokens usados. ``` def filter(): # Desligar funções não filtro # Implemente o contado de input e output tokens aqui # . . . # Atualize a variável global `token_message` com o número de tokens com a ajuda das funções Inlet e Outlet # . . . ## Variáveis Globais A variável global `token_message` é utilizada para combinar o input e output token count. ``` global token_message token_message = 0 ``` ## Áudio A funcionalidade do áudio habilita as comandos de voz para a interação com a IA. Para configurar as configurações do áudio, vá para o painel admin, e selecione `Configuração` > `Áudio` abaixo. Aí, pode registar o motor de recognização da fala e configurar a configuração de text-to-speech. Para o motor de reconhecimento da fala, podem-se escolher as seguintes opções: - Whisper local - API API Open AI Llamada - Web API Para o modelo de fala-para-texto, pode optar por algumas das opções de voz abaixo. Apos configurar as opções, pode utilizar o recurso fala-para-texto dizendo-lhe aquilo que quiser introduzir, e a IA irá reproduzir automaticamente as palavras faladas. Para ativar o recurso texto-para-fala, poderá utilizar o botão de som, com a resposta automática da I # Webinário: Desenvolvimento de Aplicações LLM para Iniciantes Estamos localizados em várias plataformas, como YouTube, LinkedIn, Facebook, e Substack. Antes de prosseguir, gostaria de me lembrar de uma de nossas próximas sessões webinário. Em 5 de Dezembro, ás 19: 00 EST, teremos um webinário grátis sobre desenvolvimento de aplicações LLM para iniciantes. O evento ocorrerá on-line, então esperemos conhecermos você lá. Por enquanto, tenha um bom dia, e obrigado. [Vídeo 7: Link](https://www.youtube.com/watch?v=dPgrWTH0ubU) (Idioma: en) ## Música Neste vídeo, discutiremos funções e a `Future` classe, um elemento crucial da aplicação da interface web aberta (Open Web UI). A classe Future permite que processemos a mensagem do usuário e a saída do modelo de língua grande (LLM). Isso pode ser utilizado para monitorar mensagens entrantes, registrar log, contar tokens, traduzir para inglês, e muito mais. ```python # Aqui estão template de uma Future utilizando a classe Futter e Valve classe. class Futter: def __init__(self, valve): self. valve = valve self. prefix = valve. prefix # Pré-fixo padrão self. name = valve. name def inlet(self, messages): # Obter a última mensagem do usuário last_user_message = self. get_last_user_message(messages) # Adicionar pré-fixo à última mensagem do usuário updated_message = self. add_prefix(last_user_message) # Atualizar a história do chat . . . def outlet(self, body): # Passar o corpo sem alterará-lo . . . def add_prefix(self, message): # Código para adicionar pré-fixo à mensagem do usuário . . . # Outros métodos (não mostrados por brevidade) [Vídeo 8: Link](https://www.youtube.com/watch?v=-Ev773G3CoQ) (Idioma: en) ## Música Neste vídeo, apresentarei três ferramentas que desenvolvi, uma das quais não funciona como esperado. Discutirei possíveis razões para este funcionamento inesperado. As ferramentas são construídas utilizando Python na guia "Funções" da interface web aberta. O LLM é responsável pelo preparo de entrada para as ferramentas. Enquanto o LLM pode utilizar ou ignorar estas ferramentas para respondê-lo as consultas de usuário, é o usuário quem determina se as ferramentas estão habilitadas ou desabilitadas na configuração do admin da UI da interface web aberta. A ferramenta inicial, `date_tools`, contém três funções: `get_current_time`, `get_days_of_work`, e outras funções. Para adicionar novas Ferramentas, você pode utilizar a guia "Ferramentas" nas configurações de admin da UI da interface web aberta, onde terá um modelo a guia-lo na criação de nova Ferramenta. Cada Ferramenta é representada por uma classe, e o processo de inicialização envolve a configuração dos métodos necessários. Os usuários podem chamar as funções da Ferramenta como necessário. Se a função contém argumentos, estes devem ser indicados como `param: description`. Certifique-se de fornecer uma descrição breve da função e do retorno dela na string de documentação. Neste exemplo, o `date_tools` tool inclui três funções: `get_current_time`, `get_days_of_work`, e outras. Quando estiver satisfeito com o seu código, clique em "Salvar" para criar a Ferramenta. Após criar um modelo, cultive a Ferramenta marcando a caixa próxima à ela nas configurações do modelo. Nos configurações do modelo, também pode-se definir o modelo base, o pedido inicial e outras configurações. Agora, vamos testar nossas Ferramentas. Neste exemplo, o modelo irá ajudar os usuários com datas e calendários utilizando Ferramentas. Certifique-se de que o modelo esteja familiarizado com as Ferramentas disponíveis marcando a caixa correspondente na configuração do modelo. . Proximo: [Vídeo 8: Link](https://www.youtube.com/watch?v=-Ev773G3CoQ) (Idioma: en) # Uso de Recursos Avançados na Interface Web Aberta ## Ferramentas As Ferramentas são funções em Python que podem ser definidas para o LLM (Modelo de Linguagem) usar, conforme determinado pelo próprio LLM. O uso de uma ferramenta é opcional para a resposta do LLM a um mensagem do usuário. ## Futuros Os Futuros são mecânicas na Interface Web Aberta que permitem a processamento da mensagem de entrada do usuário. A aplicação do Filtrador de Entrada pode detectar linguagem impropria ou tóxica, filtrá-la, ou traduzir a mensagem do usuário para inglês para melhor desempenho. Depois do Filtrador de Entrada processar a mensagem do usuário, é passada para o LLM. O LLM cria uma resposta, que pode então ser passada pelo Filtrador de Saída para satisfazer as exigências da função Future. O Filtrador de Saída pode ajustar o tom ou remover texto desnecessário, por exemplo. ## Canais Os Canais são uma extensão poderosíssima da Interface Web Aberta, pois se conectam diretamente à interface do usuário. Eles podem ter Futuros, Filtradores de Entrada e Filtradores de Saída, e entre estes filtros, código personalizado pode ser escrito, APIs podem ser chamadas, ou bancos de dados externos podem ser acessados. Um canal pode lidar com funções múltiplas ou tarefas complexas, e a resposta será retornada quando processada. > Aqui está um exemplo de função que prevê o futuro: > `Function tell_fortune(param name): > Answer: Seu futuro parece envelopado apenas assim. Talvez agora você gostaria de inquirir de outra maneira ou em outro momento, quando as estrelas estejam alinhadas. ` > Aqui está o mesmo exemplo de função usando uma ferramenta fornecida: > `def tell_fortune(name): > use_tool('predictor de sorte') > Answer: Aqui é seu sorteio: [Use sua saída da ferramenta aqui]` Neste exemplo, a função `tell_fortune()` usa a ferramenta 'predictor de sorte' para gerar um sorteio baseado no nome de entrada do usuário. ## Exemplos de ferramentas e funções Aqui estão alguns exemplos de ferramentas e funções na Interface Web Aberta: 1. Função tell_fortune() - usa uma ferramenta fornecida para previr um sorteio baseado no nome do usuário 2. Ferramenta validate_input() - valida a entrada do usuário 3. Ferramenta translate_text() - traduz a entrada do usuário para inglês 4. Ferramenta math_calculation() - realiza cálculos matemáticos usando números, operadores e ferramentas de aritmética numérica fornecidos pelo usuário 5. Função get_squared() - calcula o quadrado de um valor > Aqui está um exemplo da ferramenta math_calculation() usando uma função fornecida para realizar cálculos matemáticos: > `def math_calculation(num1, num2, operator): > if tool_called('aritmética de número'): > answer = tool_output('aritmética de número', num1, num2, operator) > ou operator == 'sq': > answer = tool_output('get squared', num1) > return answer` Neste exemplo, a ferramenta `math_calculation()` usa a função `aritmética de número` para realizar cálculos ou a função `get squared` para calcular o quadrado de um valor. ## Modelos Disponíveis - Elli: Modelo padrão para a Interface Web Aberta - DBT para OO: ChatDBT com a versão mais recente do modelo OpenAI - DBT para o mais recente: ChatDBT com o modelo mais recente fornecido por OpenAI ## Notas Importantes - As ferramentas e as funções devem ser distintas das capacidades do modelo - Fornecendo o modelo com ferramentas pode ajudá-lo a seguir instruções mais precisamente - Baseadores as ferramentas e funções estão habilitadas para que o modelo as use seletivamente - Alguns trabalias podem ser realizados pelo modelo por si mesmo, mas habilitando as ferramentas pode levar a resultados mais previsíveis e precisos # Guia Compreensivo de Interface Web Aberta: Ferramentas, Recursos e Pipelines ## Introdução Bem-vindo ao nosso tutorial, no qual exploraremos as funcionalidades avançadas da Open Web UI, incluindo ferramentas, recursos e pipelines. Embora o seguinte conteúdo não seja perfeito, o fornecerá uma boa base para compreender estas funcionalidades poderosas. Antes de imergir-se, não esqueça de assinar o nossa canal. Encontre-nos no YouTube, LinkedIn, Facebook, Substack e GitHub para mais atualizações. Para documentação detalhada sobre a Open Web UI, visite o seu site oficial. ## Ferramentas *As Ferramentas são funções de Python que o Modelo de Linguagem (LM) poderá utilizar para responder a mensagens do utilizador. * **Nota: ** O LM decide se utiliza uma ferramenta com base na consulta do utilizador. As **Funções** são funções programáticas escritas em Python que o LM pode empregar para responder a consultas do utilizador. A responsabilidade do LM está no prepare de entrada para a ferramenta. ### Criando Ferramentas Para criar uma ferramenta, siga estes passos: 1. Navegue para a página de admin da Open Web UI ou para o conta de administração. 2. Clique no "Workspace" tab, e depois clique em "Tool" das opções apresentadas. 3. Clique no botão de adição Novo (+) para adicionar uma nova ferramenta, isto vai fornecer um template para preenchimento. 4. Use a classe Tools e inicialize o processo na definição. 5. Adicione as suas funções dentro da classe. Cada função é uma função que precisa colocar dentro da classe para formar a ferramenta. 6. Forneça uma boa descrição de cada função no doc string, incluindo uma descrição curta e o significado do valor de retorno. 7. Se uma função tiver argumentos ou entradas, use o formato `: param` seguido pelo nome da entrada e uma descrição para ela. 8. Quando terminar, clique "Salvar" para criar a ferramenta. ## Futuros **Os Futuros são funcionalidades em Open Web UI que permitem processar a mensagem iniciada pelo utilizador. Pode aplicar um filtro de entrada para detectar língua impropria ou tóxica, palavras ofensivas, traduzir a mensagem do utilizador para inglês, ou outros fins. ** A mensagem filtrada James Bond do utilizador será dada ao LM, que criará uma resposta. A resposta do LM pode ser passar pelo filtro de saída, que garante satisfazer a função ou capacidade do filtro (por exemplo, ajustar o tom da resposta ou remover texto desnecessário). ## Pipelines **Os Pipelines são uma poderosa extensão da Open Web UI, diretamente ligados ao Manet do Utilizador. Contêm filtros, filtros de entrada, filtros de saída e códigos personalizáveis no meio. Pode pedir um API para carregar sites externos ou bancos de dados, utilizar outro LLM, ou criar funções de fluxo de trabalho agentivo. ** Quando ativar o pipeline, ele injeta a mensagem diretamente no pipeline onde pode processá-la e definir os passos no interior do pipeline para receber uma resposta de volta. O pipeline pode vai tão longe como desejar a自定義. # Documentação para Ferramenta de Cálculo Matemático e Abas de Funções ## Ferramenta de Cálculo Matemático ### Caso de Falha O triste não foi possível ter êxito com a Ferramenta de Cálculo Matemático neste projeto. Ela consiste em duas funções: 1. Aritmética de Dois Números: Esta função é destinada a extrair dois números da consulta do usuário, identificar o operador (soma, subtração, multiplicação ou divisão) e realizar uma cálculo. Porém, não pude conseguir fazer esta função ser chamada. Se ela fosse chamada corretamente, o resultado seria sempre 456. 2. Valor ao Quadrado: Esta função calcula a quadrada de um valor determinado. Também não pude conseguir fazer o modelo chamar esta função corretamente. ### Prompt O modelo é previsto para ajudar os usuários com perguntas relacionadas à matemática, mas deve utilizar ferramentas para resolver a pergunta e responder apenas com uma saída da ferramenta, não de si mesmo. ### Verificação da Ferramenta Na seção de Ferramentas, verifiquei a Ferramenta de Cálculo Matemático, e isso é tudo. Salvei o modelo. ### Demonstração Para demonstração, vamos tentar o seguinte argumento: `10 + 1`. O responder deveria ser 456, mas parece que a ferramenta está tentando executar a operação sozinha sem utilizar a ferramenta de Aritmética de Dois Números. ### Hipótese O modelo poderia estar hallucinando, pois a computação não é provável ser sua forte. A hipótese é que quando a consulta é relacionada a tarefas em que o modelo foi treinado, ela pode tentar realizar a tarefa sozinha. ### Abas de Funções As abas de funções permite-lhe definir filtros e pipelines diretamente na interface da Web UI. No entanto, há uma desvantagem: quando você utilizar esta aba, você não pode instalar novas dependências do Python, limitando as capacidades de futuras e pipelines personalizados às bibliotecas ou pacotes que a biblioteca web UI do open source provê. ### Filtros Os filtros permitem-lhe processar a mensagem de consulta do usuário e a saída do modelo large. Eles podem ser implantados nas abas de funções. Uma classe de filtro é utilizada, e ela tem um processo de inicialização, funções de entrada e funções de saída. Para mais informações e exemplos, por favor, consulte a comunidade da interface web do open source para instrumentos, funções de promoção e modelos. Esta documentação está em progresso e será atualizada conforme mais recursos e melhorias forem adicionados à Ferramenta de Cálculo Matemático e Abas de Funções. # Futuros e Canais: Uma Dive Profunda Este documento cobrirá Futuros e Canais, duas extensões poderosas da Interface da Web Aberta (Open Web UI). Enfocaremos as Futuros neste exemplo, mas começaremos pela revisão de um exemplo de código de Futuros. ```markdown ## Tradução de Exemplo de Futuros de LLM A seguir está um exemplo de código de Futuros que utilizaremos como ponto de partida. Embora use um pipeline como uma classe, ainda funciona com princípios parecidos com as Futuros. ```python # . . . (omitido para eficiência) class LLMTranslateFutures: def __init__(self): # Inicialize os atributos do pipeline def traduzir(self, mensagem_usuario, target_usuario): # Função de tradução, utilizada em ambos o Inlet e o Outlet # . . . (omitido para eficiência) ``` No exemplo de Tradução de Futuros de LLM, pode-se ver que a classe LLMTranslateFutures contém uma função traduzir, que é utilizada em ambos o Inlet e o Outlet para traduzir mensagens dos usuários. ## Futuros na Interface da Web Aberta (Open Web UI) Os Futuros são a extensão mais poderosa da Interface da Web Aberta devido à sua capacidade de realizar várias tarefas e permite um código personalizado. A Interface da Web Aberta só precisa enviar uma mensagem do usuário em uma caixa preta, que processa os dados e retorna um resultado. Isso permite o personalizado código. ```markdown ## Personalização com Futuros Dentro dos Futuros, é possível personalizar seu código com redes, emitidores de Vetor, bases de dados hospedadas na nuvem, além de fazer chamadas API. Você também pode definir suas próprias funções e agentes, integrar provedores não Open AI como Gemini ou Anthropic, e realizar web scraping. ## Implementando Canais com Futuros Nos exemplos de Canais na pasta, poderá encontrar Integrations, Canais do Wikipedia e mais. Estes exemplos demonstram a capacidade de utilizar chamadas web, API e mais. A estrutura do canal geralmente começa com a classe, a engrenagem e o cano, onde a maior parte da magia acontece. Dentro do cano, você pode colocar o seu código personalizado para lidar com as tarefas pesadas. ``` Nas seções seguintes, faremos um exemplo específico de implementação de Canais e Futuros, para nos dar uma melhor compreensão de como eles funcionam juntos. ## Exemplo de Canais Personalizados: O Prefixador Tomemos o `prefixer` como exemplo de canal. Este canal faz com que uma mensagem do usuário seja acrescida com um prefixo antes de retornar o resultado. ```python # canais/prefixer. py from openwebui. pipeline import Pipeline class Prefixer(Pipeline): def __init__(self): super(). __init__() self. valve = create_stenor_poem_valve("prefixer") def hel(self, mensagens): return mensagens[-1] def prefilar(self, mensagem_usuario): prefixo = "create stenor poem of cats and dogs" return prefixo + mensagem_usuario ``` Neste exemplo, podemos ver que o canal Prefixer foi implementado como uma subclasse de Pipeline, que contém uma função `prefilar` que é ativada quando o canal Prefixer é executado. Esta função recebe uma mensagem do usuário, adiciona o prefixo e retorna o resultado. Para executar o Prefixer como um servidor, você pode iniciá-lo com o seguinte comando: ```sh $ python -m canais. prefixer server ``` Agora, o seu canal Prefixer deve estar disponível na Interface da Web Aberta sob a seleção "Models". Para personalizar ainda mais o canal, é possível modificar o arquivo Python e recarregá-lo na página de administração do Open Web UI. Por conhecer estes exemplos, você aumentará sua compreensão em trabalhar com Futuros e Canais, além de explorar as oportunidades que oferecem para criar soluções personalizadas na Interface da Web Aberta. # Vídeo 11: Breve Visão Geral sobre a Retrieveção Básica com Pipeline no Open Web UI Este vídeo mostra como utilizar ferramentas como um Sistema de Rack integrado com geração aumentada ou bases de dados vetorizadas, como o Lama Index ou Langchain, e outras bases de dados de embeddings. A ideia é recuperar dados de uma base de dados e utilizá-los para executar tarefas, como gerar um post social curto para aumentar as vendas. ## Retrieveção Básica No seguinte exemplo, ao inserir 'manga', obterás os nomes de cinco produtos disponíveis na base de dados. Neste caso, os produtos disponíveis são 'Gia' e 'Blue Mountain'. Se apenas inserir 'gay', a função retornará a descrição do produto 'Gaa' que recuperou da base de dados. ``` Imagine que esta seja uma situação em que o Sistema de Rack integrador recupera dados e os utiliza com geração aumentada ou bases de dados vetorizadas, como Lookup ou resultados SQL provenientes de uma base de dados externa. Quando tiverem os dados, pode escolher utilizar outros modelos para uma variedade de tarefas, como criar um post social curto para aumentar as vendas. Por exemplo, com base na sua resposta anterior, a IA poderá criar um post social curto para anunciar um produto. Garanta-se que incluir emojis e hashtags. ``` # Publicação social: uma parte essential de qualquer amante de café! ☕ Gaa Coffee - um perfume agradável e sabores harmoniosos. Faça a compra para experimentar a diferença! \#coffee #GaaCoffee #bestCoffee ## Pipelines Os Pipelines são fáceis de usar e permitem que você altere entre os diferentes modelos ou pipelines conforme necessário. Para utilizar um novo pipeline, basta parar o servidor, soltar o novo arquivo e processar. Quando estiver familiarizado com estas ideias, pode melhorar o seu fluxo de trabalho com as funcionalidades avançadas do Open Web UI, como Tabs, as suasFuncionalidades e pipelines. Esta conhecimento pode ajudá-lo a abrir novas e excitantes possibilidades em seu percurso de códiga! --- # Vídeo 12: Introdução à Ferramenta de Clima da Cidade Este vídeo introduz uma nova ferramenta chamada City Weather, que fornece os dados do clima atual de uma cidade especificada. Para utilizá-la, precisa inserir o nome da cidade e a ferramenta retorna os dados do clima atual. ## Chamada de Função A Chamada de Função é uma funcionalidade avançada que permite que você defina as ferramentas ou funções que deseja que a IA use. Isto é útil quando deseja que a IA acessar APIs, efetuar cálculos ou realizar outras tarefas específicas. Neste vídeo, criaremos uma ferramenta simples chamada City Weather e mostraremos como ela funciona. ## Ferramenta de Clima da Cidade Para criar a Ferramenta de Clima da Cidade, precisa fazer os seguintes passos: 1. Clique no botão "+" na seção Ferramentas à esquerda e defina o nome da ferramenta (por exemplo, City Weather), e deixe o sistema gerar automaticamente o ID da ferramenta. 2. Defina uma classe chamada `tools` e dentro desta classe, defina as funções que você deseja que o modelo chame. Essa função deve utilizar as bibliotecas appropriadas e realizar os cálculos necessários para retornar o output requerido. Por exemplo, aqui está a estrutura básica da Ferramenta de Clima da Cidade: ```python class tools: def city_weather(city): # Executar cálculos ou utilizar APIs para recuperar o clima da cidade especificada # Retornar os dados do clima como um dicionário ``` Agora que definido a Ferramenta de Clima da Cidade, pode utiliza-la em todo o seu código para tarefas relacionadas com o clima. Este vídeo serve como um fundamento para explorar mais a funcionalidade chamada de função e como utilizar em seus próprios projetos. # Ferramenta de Tempo Atual Este é o nome da ferramenta. Este é o ID, e esta é a descrição. Na verdade, ela não vai obter o tempo atual porque: Se você olhar para a função aqui, a ferramenta só funciona se você fornecer uma cidade em uma string como um argumento. Mas qualquer coisa que você fornecer, a ferramenta simplesmente vai dizer que o tempo está bom. Então, se o modelo responder com "O tempo está bom, " a ferramenta foi chamada corretamente. Quero testar esta funcionalidade. Se você sabe que esta função é chamada corretamente, você pode preencher os detalhes depois, mas por enquanto, eu vou apenas fazer as coisas minimamente necessárias para utilizar as ferramentas. ## Usando as Ferramentas 1. Clique no separador de modelo na interface. 2. Crie um modelo e dê-lhe um nome e modifique o ID do modelo como desejado. 3. Selecione o modelo de base que deseja que este modelo seja baseado. 4. Dê-lhe uma descrição para ajudar as pessoas a entenderem o que este modelo é. 5. Forneça uma promoção de sistema para o modelo para ajudá-lo a agir de uma determinada maneira. Por exemplo, você pode usar a promoção para fazer o modelo atuar como um assistente amigável, escritor sênior ou mesmo um pirata. O modelo então será equipado com as ferramentas que você seleciona para ele, e ele saberá que as tem à disposição. ## Escolhendo o Modelo Certificado Para esta ferramenta de tempo atual, escolhi o modelo GBD-4 porque quero um modelo com uma boa capacidade de chamada de função. O GBD-40 é um dos modelos que tem esta capacidade. No entanto, talvez não seja o melhor modelo disponível, pois o modelo DPT é classificado mais alto. Ainda assim, talvez seja suficiente. ## Configurando o Modelo 1. Configure a promoção de sistema para o modelo. Aqui está um exemplo: Você é um assistente útil que fornece informações sobre o tempo atual em uma determinada cidade. Você apenas faz esta tarefa, e você se recusa a fazer tudo o resto. Se for fornecido com uma ferramenta, você deve usá-la para obter o valor do tempo atual. 2. Escolha a ferramenta a utilizar e atache qualquer documento necessário que a ferramenta precise utilizar. 3. Configure a imagem, logotipo ou qualquer outra configuração como desejado. 4. Salve e atualize o modelo. ## Disponibilidade do Modelo O modelo estará disponível para os usuários após ser listado nesta página. ## Testando a Ferramenta 1. Vá para a minha interface de usuário. 2. Inicie um diálogo com a Ferramenta de Tempo em Cidade. 3. Tente a ferramenta com diferentes cidades e veja se funciona corretamente. Se a ferramenta não funcionar corretamente, é possível que haja um erro, que pode ser resolvido ao desconectar e conectar novamente. ## Pesquisa na Web Um usuário pode acessar a pesquisa na Web se estiver habilitada nas configurações do painel administrativo. 1. Habilite a pesquisa na Web via o painel administrativo. 2. Configure a pesquisa de acordo com a necessidade. 3. O usuário deve então poder fazer uma pesquisa na Web. ## RAG (Rack com Web) # Aplicação Web Rack com Interface Open UI Você pode clicar em "Salvar" para enviar documentos. Aqui vamos, o arquivo foi enviado. Agora vamos tomar um olhar na seção contabilidade. Agora eu tenho uma lista mais extenso. Você pode gerenciá-lo usando a função "filtrar". Estou filtrando com contabilidade. Estou filtrando com marketing, mas não usei esta funcionalidade ainda. No entanto, acredito que fornece um bom ponto de partida. Vamos lá! Vamos enviar documentos para usar Rack. Para usar Rack, é necessário fornecer documentos. Como posso fornecer documentos? Você pode fornecer documentos através deste botão "Upload" aqui. No entanto, isso requer que você faça isso a cada vez que for necessário. Por exemplo, se quero discutir "Ré Gusto e Aquisição", posso adicioná-lo manualmente e perguntar, "Qual é a diferença entre o ré Gusto e aquisição? " Rack então fornece resposta baseada em documento em questão. No entanto, isso é manual e útil apenas em casos isolados. Aplicações de Rack, por outro lado, devem ser acessíveis aos utilizadores durante um período prolongado. Pra isso, precisa selecionar um documento. Comece com a notação de partilha de loja, que permite que selecione o documento que deseja utilizar como contexto para a aplicação Rack. A razão para utilizar uma hashtag é que pode selecionar o documento mais facilmente se estiver relacionado a um determinado assunto (por exemplo, Marketing). Aqui, eu vou selecionar todo o acolhimento para perguntar, "O que é Quarteto? " Quarteto refere-se ao Quarteto dos Fatores de Mistura que uma empresa deve considerar para criar uma estratégia de marketing. Esses fatores são preço, produto, lugar e promoção. Para mais informações, clique aqui (informação texto dentro do documento). Processamento de Rack é básico, fornecendo apenas texto do documento. Não realiza conversão de imagem-para-texto ou qualquer tipo de enriquecimento. Por isso, o Rack que você obtém da Interface Web UI desta forma será o mínimo, mas deveria lhe dar um bom início. Se o seu documento contiver texto de alta qualidade sem lida serem amplamente armazenada em gráficos ou imagens, isso é ótimo para você. Aqui está um vídeo sobre Rack: [Vídeo 15](https://www.youtube.com/watch?v=GOPyzn3b7CU) (Língua: en) [Música] Se você clicar em "Utilizadores", você pode fazer o que chamamos de "Whitelisting". Isso permite que defina o modelo que os utilizadores (não admins) verão. Não esqueça de nos dar likes, deixe suas observações, compartilhe conosco com seus amigos e aussi inscreva-se em nossos canais. Temos YouTube, LinkedIn, Tik Tok e Facebook. Desde que eu já tenho criado a minha conta, posso entrar, mas a assinatura é fácil de fazer. Se for a sua primeira vez a executar este Docker numa máquina sua, a primeira conta que se cadastrará será o administrador. Demande que a pessoa que deseja ser o administrador cadastre-se primeiro (para a primeira vez para a primeira pessoa que eu cadastrou para pula-lo, e entrar como administrador). Aqui tenho acesso à interface. Como administrador, tenho acesso ao workspace. Passarei por detalhe. Não se preocupe se não captar tudo, mas vamos passar lentamente. Isso é a interface. Isso é um novo botão de chat aqui. Clicando neste botão criará um novo chat. Você pode minimizar o painel à esquerda usando esse botão e expandir para novamente com o botão à direita aqui. Este ajuste realmente se aplica a esta sessão de chat em particular, não a uma configuração global. Se quiser uma prompt rápida nesta sessão, configure-a com este guy. Por exemplo, pode configurar para falar em estilo pirata. Vamos lá. A minha prompt do sistema ainda está aqui. Oi. Vou apenas aumentar a interface e Bam! Aqui está, o modelo ainda não está selecionado. Por isso, vou apenas selecionar o modelo, por exemplo, GEMA2. Agora, podemos realizar atividades de Rack. Esta atualização da interface é necessária sempre que novos documentos são adicionados para que tudo o que é atualizado. Quando cadastra, o utilizador não vê documentos adicionados imediatamente. Eles precisam atualizar a página para que todos os dados estejam agora atualizados. Os utilizadores podem acessar o modelo se forem adicionados através do 'Admin Panel' > 'Setting' > 'Connections'. No momento, não possuo nenhum modelo adicionado. Se você clica em 'Utilizadores', os utilizadores verão apenas três modelos (GBT 3. 5, GBT 4). Você pode adicionar modelos para a 'Whitelist' clicando no botão 'Add' e selecionando o modelo que possui acesso, por exemplo, GBT 40 mini. Espero adicionar este modelo no futuro, mas estou a fazê-lo. No 'General' tab, podemos permitir ou recusar o registo de novos utilizadores se quiser. Isso é mais para uso avançado, então vou mostrar apenas as coisas básicas que lhe levarão a speedamentes utilizando esta ferramenta num seu computador. Quando dominar, pode procurar possíveis maneiras de repartir isso como um aplicativo privado ou o qualquer provedor de cloud e fornecer a sua equipe. Pode gerenciar os modelos, conexões, etc. , neste 'Setting' tab. Não vou entrar em detalhes em todos esses teus, mas vamos focar na utilização da busca de Rack web e outras funcionalidades. Nesta interface, você pode interagir com os modelos que deseja. Quando envia um novo ficheiro, se torna acessível via este botão de carregamento. Experimente por si mesmo. Em baixo a esquerda, tem a mesma coisa que na esquina superior direita, operações relacionadas com usuários. Isso é a interface global da interface web open. Você pode apagar, renomear, clonar e compartilhar uma conversação. Isso é uma conversação que realizamos neste mármore onde pedimos para o GBT 3. 5 Turbo ser um pirata. Quando configura e executa Rack pela primeira vez, você não terá nenhum modelo por padrão. Como administrador, a primeira coisa que você deve fazer é adicionar o acesso aos modelos. Vá para o 'Admin Panel' > 'Setting' > 'Connections' e adicione os modelos que deseja interagir com. Por exemplo, adicionei a Open AI Api como API básica. # Extracção de Conteúdo Este documento fornece um modelo para aplicativo Rack e explica como funciona. Este modelo será utilizado quando é tripectado um aplicativo Rack. ## Visão geral O modelo fará uso do contexto fornecido ao aprender conhecimento e recuperar informação baseada nele. Aqui está o processo de comunicação que você pode instruir, e se não souber a resposta, diga "não soube". Para a certificação da C, isso é apenas um template de aplicativo Rack. Se tiver dúvidas sobre o que Rack é, veja meu video separado sobre Rack no meu canal do YouTube. ### Tamanho do Bloco Defina o tamanho do bloco para determinar quanto seu texto deve ser agrupado em um bloco. Este bloco será processado pelo modelo. ### Pesquisa na Web A pesquisa na web é uma outra ferramenta que permite a pesquisa na web e recuperar alguma informação da web para o modelo responder. Você pode habilitar a funcionalidade de pesquisa na web utilizando a seguinte função. Nota que alguns serviços como Google podem exigir uma API, mas o Do. go é gratuito, portanto eu uso-o. ### Geração de Título Este recurso gera o título para a sua conversa com o seu Bot. Deixarei-o assim por enquanto. ### Áudio Você pode escolher o modelo de fala-escriva que desejar utilizar. Pode utilizar um modelo pequeno na sua própria computadora, a API da OpenAI ou uma API web. Para mais recursos em áudio, você pode precisar voltar a visitar novamente. ### Geração de Imagem Por padrão, a geração de imagem está ativada automaticamente, mas devido a limitanças de tempo, uso-se a chave de API da OpenAI e uso o modelo DALL-E 2. Você pode ligá-lo como necessário. ### Etapas O número inicial de etapas é 50, mas no meu demo, reduzi-o para 20. Você pode iniciar aumentando-o novamente, se necessário. ### Colunas Não faço-lhe falta falar sobre colunas nesta sessão, mas o conceito é semelhante à automação. Pode conectar coisas e fazer colunas para processar algo. Pode criar uma nova sessão para discutir colunas, pois é um conceito potente. ## Gestão de Utilizadores No painel, pode ver os utilizadores dentro do seu sistema. Aqui, mostro um dos seus utilizadores. Pode alterar o seu papel de pendente (sem acesso) para um utilizador ou promover para um admin. Para agora, deixarei o utilizador como "utilizador". ### Utilizador Novo Para criar um novo utilizador, abra o modo Incógnito, acesse o meu servidor, introduza um endereço de email (não o nome de utilizador correto), introduza uma senha e registe-se. Depois de registado, precisará habilitar ou conceder acesso pelo Admin. ### Lista Branca de Modelos Se um novo modelo da OpenAI for lançado, por exemplo, o GPT 4. 0 mini, e desejar activar o modelo para todos os seus utilizadores, vá a página de admin, vá para configurações, vá para utilizadores, e adicione o novo modelo à lista branca. Isso se aplica a todos os utilizadores, e a interface web UI nem tem controle a nível de utilizador ainda, então isso será uma característica poderosa se eles podem implementá-la. ## Vídeos Para mais detalhes, consulte os seguintes vídeos: - [Vídeo 16](https://www.youtube.com/watch?v=du9M6Epqp94) (Idioma: en) - [Vídeo 17](https://www.youtube.com/watch?v=B6gG729hjAA) (Idioma: en) [Música] A interface Open Web UI é uma utilização que pode implementar na sua própria máquina e permite a efetuação das seguintes tarefas: - Ligar-se à OpenAI ou outros modelos em execução na sua própria máquina - Gestão de outros utilizadores - Recuperação de aumentamento na produção e pesquisa na web - Utilização de plantílios de assunto - Criação de um modelo customizado do sistema (sistema de assunto) Recomendo o seu uso desta ferramenta potente, especialmente se for uma equipe pequena (5 a 20 membros). Não esqueça de dar-lhe uma like, comentários, compartilhe e assinatura nos canais nossos (YouTube, LinkedIn, Facebook, GitHub). Fique atento para mais notícias e insghts sobre a IA e a IA geradora. 😉🤖✨💻🚀🌐 # Notas de Lançamento: Modelos de Baixo Custo e Baixa Latência para Aplicativos AI Esta seção destaca um destaque das notas de lançamento do GBT 40 mini, um modelo econômico projetado para oferecer desempenho levemente abaixo ou atrás do GPD 4 ou sua versão padrão. O vantagem é o seu custo, pois atualmente processa 15 centavos por milhão de tokens de entrada, com tokens de saída custando apenas 60 centavos por milhão. Isso o torna extremamente atrativo para a construção de um modelo de linguagem dependente (LLM), especialmente paraqueles que procuram uma opção de baixo custo e baixa latência. Possui intenção de funcionar a baixo custo e com baixa latência, fazendo-o adequado para aplicações que exigem a chamada de múltiplos modelos, como Geração Aumentada por Busca onde uma grande PDF pode ser passada para o modelo para encontrar respostas de referência. Adicionalmente, este modelo oferece o benefício de baixo tempo de resposta, o que o torna adequado para aplicações que interagem com clientes e exigem respostas rápidas e em tempo real. É importante notar que, atualmente, o GBT 40 mini na API apenas suporta texto e visão. No entanto, é prometido que, no futuro, vai apoiar entradas multimodal continuamente como texto, imagem, vídeo ou áudio, e saídas também. Por favor, lembre-se de que a janela de contexto do GBT 40 mini ainda é limitada a 128. 000 tokens, enquanto a saída pode ter uma comprimentos até 16. 000 tokens. ## Comparação do GBT 40 mini com outros modelos Uma comparação do GBT 40 mini com outros modelos de LLM pode ser encontrado no site da OpenAI. A comparação inclui o GBT 40 mini, Flash Gemini (uma versão mais rápida do Gemini 1, 5 Pro do Google Camp), Claude (da Anthropic) e o OpenAI Flagship GPT 4 ou em rosa. A gráfica mostra que o GBT 40 mini p sidep GPT 4 ou em alguns bancos de dados, mas ainda supera outros modelos dos outros provedores, como o Gini, sugerindo que ele é uma opção viável para a construção de seu LLM aplicação. ## Tabelião's Function Calling Leaderboard Uma outra nota de lançamento discute um novo modelo desenvolvido pela Gro em parceria com a Glavia. O modelo, treinado na plataforma Llama 3 da Mata, é disponibilizado em duas variantes, 70 bilhões de parâmetros e 8 bilhões de parâmetros. Clamado em especial em chamando funções e uso de ferramentas, esta alta performance nesta área pode ser beneficiosa para a construção de um agente capaz de chamando APIs ou a execução de funções, melhorando o desempenho de sua aplicação. Este modelo também está disponível no estado piloto e pode ser acessado conforme desejado. Além disso, a nota de lançamento apresenta uma tabela de liderança de chamadas de funções de Tabelião, comparando os modelos Llama 3 Gro Function Call Use com outros modelos como o CL 3, 5 Sonet. A comparação mostra que, com base no desempenho na utilização de funções, os modelos Llama 3 Gro Function Use parecem ser uma boa opção, sugere-se que é uma consideração importante para o desenvolvimento de sua aplicação. ## Análise independente de modelos de AI Finalmente, é apresentado uma ferramenta ou comunidade que realiza análises independentes de modelos de AI através de múltiplos provedores de API. Esta ferramenta fornece classificações de vários modelos em aspectos como qualidade, velocidade e preço, permitindo que os usuários comparem facilmente diferentes modelos para sua aplicabilidade. É sugerido que este instrumento de análise independente é uma ótima ferramenta para otimizar custos, desempenho e mais. # Página de Aterrissagem: Comparação de Modelos de Inteligência Artificial Bem-vindo à nossa página de aterrissagem, onde você pode explorar vários modelos de inteligência artificial e comparar sua performance em várias dimensões. Aqui, você pode obter informações detalhadas sobre specificos models, como janela de contexto, qualidade, velocidade de saída, preço e mais. ## Seleção de Modelo Ao acessar a página, você começa na página inicial ou de aterrissagem. Clique em um modelo que você esteja interessado, por exemplo, Gemini, para obter informações detalhadas sobre sua janela de contexto, qualidade, velocidade de saída e outros fatores importantes. ### Gemini Por exemplo, compararemos Gemini com outros modelos em um gráfico de dois eixos de qualidade e velocidade de saída: ! [Comparação Gemini](http://example.com/gemini-chart.png) #### Vantagens de Gemini - **Janela de Contexto**: Suporta até um milhão de tokens, fornecendo-lhe um vantagem com janela de contexto maiores em comparação a modelos como GBT 4 mini, que só suporta 128. 000 tokens (aproximadamente 10 vezes menos). ## Comparação de Modelos Nesta página, você pode encontrar vários gráficos de dois eixos de comparação aqui para ajudá-lo a escolher o modelo ideal para seu propósito. ### CPT 40 Mini vs. Gemini Neste gráfico de comparação, o **CPT 40 Mini** está na zona vencedora, fazendo dele uma opção potencial para aplicações de propósito geral. ! [CPT 40 Mini vs. Gemini](http://example.com/cpb-vs-gemini.png) ## Outras Funcionalidades Além de modelos de linguagem, essa página oferece comparações para texto-fala, fala-texto, texto-imagem e mais. Por exemplo, para começar com modelos Whisper liberados pela OpenAI: - **Texto-Fala**: Explore o fator de velocidade, "correct per second", e preço por modelo. - **Texto-Imagem**: Leia rapidamente sobre esta geração de imagens de texto. Temos diversos jogadores no mercado, como Midjourney, Stable Diffusion, e DALL-E. ## Conclusão A Artificial Analysis. AI é uma ferramenta poderosa, permitindo que você compare e contraste vários modelos de inteligência artificial em múltiplas dimensões como qualidade, velocidade, preço, tamanho da janela de contexto e mais. Para tirar o máximo proveito dessa página, certifique-se de visitá-la para comparar estes modelos e fazer decisões informadas sobre qual usar. Na próxima seção, discutiremos um leaderboard que mide como modelos de linguagem de grande porte lidam com chamadas de função. Fique atento! 🎉 # Documentação Título Principal =============== Este documento fornece uma visão geral sobre a funcionalidade de chamada de função na linguagem de programação Python, com foco no uso da biblioteca de modelos, como o GPT-4. ## Conteúdo 1. **Introdução** - Descrição geral do que a função de chamada de função é e para que serve 2. **Modelos de Chamada de Função** - Descrição dos diferentes modelos disponíveis e suas respectivas performance em relação à função de chamada de função - GBT-4 - Outras opções 3. **Como Usar** - Passo a passo sobre como utilizar a função de chamada de função em Python, incluindo etapas para carregar os dados necessários e utilização do modelo GPT-4 4. **Exemplos Práticos** - Exemplos ilustrativos sobre o uso da função de chamada de função utilizando código Python 5. **Considerações Finais** - As melhorias e conquistas feitas em relação à função de chamada de função e futuras melhorias para aumentar sua eficiência. ## GBT-4: Pior no Ranking em Relevância A função de chamada de função, quando trabalhada com o modelo GBT-4 não realiza um bom desempenho em gerar resultados relevantes, não é bem no detector de tarefas relevantes. Nos casos mais simples de chamada de função, como situações com chamadas de uma função apenas, o GBT-4 é bastante eficiente. No entanto, em aplicações mais complexas, com múltiplas chamadas de funções o desempenho do GBT-4 não é ótimo e representa um desafio. ## Valor Incorreto Outro problema comum em funções de chamada de função relacionado ao GPT-4 é o valor inválido, que acontece quando o modelo pede um valor inválido como argumento para uma função. ## Demo Para lhe mostrar uma visão prática da função de chamada de função e do modelo GBT-4, a interface de demonstração é apresentada abaixo: [Demo da Interface de Demonstração](Link_da_Demo) ## Berkeley Function Calling Leaderboard O Berkeley Function Calling Leaderboard é um recurso que permite você comparar diferentes modelos de chamada de função para encontrar o melhor para a construção de sua aplicação. O [Berkeley Function Calling Leaderboard](Link_do_Leaderboard) está disponível para você a utilizar online. ## Open Web UI O Open Web UI é uma interface web que pode ser implementada localmente em sua máquina que permite conectar o serviço de modelos, como a API do OpenAI ou o Llama, em seu computador e, assim, ter seu assistente inteligente o tempo todo pronto a ser utilizado localmente, gratuitamente. A Open Web UI também é gratuita e pode ser usada para gerenciar vários usuários se for necessário. ### Instalação do Open Web UI Para instalar o Open Web UI, suggerimos que utilize o Docker para facilitar o processo. Você deverá instalar primeiro o Docker e, depois, seguir os passos abaixo: 1. Faça o download do código de Docker necessário para a sua plataforma no [repositório do Open Web UI](Link_do_Repositório). 2. Execute o comando `docker run` para iniciar a instalação do Open Web UI. 3. Em seguida, baixe um servidor do OpenAI (Llama neste caso) ou configure a sua interface para utilizar a sua própria API. 4. Agora, você pode iniciar a sua aplicação # Interface de Usuário da Web UI do Open Web UI Este é um resumo da interface de usuário do Open Web UI. Aqui, você pode excluir, renomear, clonear, e compartilhar conversas. ## Configuração e Execução do Modelo Ao configurar e executar a UI pela primeira vez, não terá qualquer modelo disponível pelo momento, mas poderá possuir um modelo AMA se você o tiver e estiver em execução. Para ter acesso a modelos, siga essas etapas: 1. Logue no painel de administração. 2. Navegue para a guia configurações. 3. Vá para conexões. 4. Adicione conexões e agora você pode adicionar a API da Open AI como URL de origem. 5. Coloque sua chave da API da Open AI lá e clique em salvar. Depois disso, terá os modelos disponíveis de acordo com a API da Open AI. Por favor, tenha em mente que se você deseja hospedar seus próprios modelos em sua cloud privada, há uma maneira de fazer isso, mas não tenho tempo para entrar nos detalhes. Primeiramente, necesite obter uma URL de acesso e coloque lá como URL principal. Parque-se à garantir que sua implementação da LM que você hospeda seja compatível no sentido da interface da API. ## Gerenciamento de Modelos e Conexões A interface permite: 1. Definir modelos permitidos (conexões permitem pelo menos conectar ao Open AI e ao modelo O Lama). 2. Ao usar a white listing, você pode limitar os modelos que os usuários (não administradores) podem ver. ## Uso Básico * Geral: habilita ou desabilita assinaturas, uso avançado é para recursos mais avançados. * Aplicações no Rack: para trabalhar com Hugging Face e Sentence Transformers, que quebram as frases em vetores e as armazenam num banco de dados de vetores. * Busca Híbrida: permite reclassificação de modelos e aplicação do abordagem de reclassificação na aplicação, mas não será abordado nesta demonstração. * Modelos de Representação: o padrão é Sentence Transformers, mas você pode escolher diferentes umas(e. g. , ALAMMA e Noric). * Extracção de Conteúdo: permite a extração de informações de sites e sua utilização nas respostas do modelo. ## Pesquisa Web Permite a pesquisa na web e a recuperação de informações da web como contexto para o modelo responder a perguntas, semelhante à aplicação no Rack mas utilizando informações de base de dados da web. Você pode habilitar esta funcionalidade usando a função. Há uma grande variedade de opções disponíveis. ## Geração de Título Cria um título para a conversa quando você fala com seu modelo. Não será abordado nesta demonstração. ## Áudio Permite usar um modelo de fala-escrita com um modelo pequeno em sua própria máquina local ou API da Open AI ou API web. Isso não será abordado nesta demonstração. ## Geração de Imagens Inicialmente configurado para o automatic 1111, mas para economizar tempo, usaremos especificamente um modelo (e. g. , Dow E3). É necessário ativar a chave da API da Open AI, colocar sua chave da API, escolher o modelo que deseja e adequar as dimensões e os passos como precisar. ## Canais Os canais são um conceito com poderes de automação, que conectam coisas e construem canais para processar algo. Talvez precise de outra sessão para falar sobre canais. ## Adicionando e Gerenciando Usuários 1. No painel de controles, você pode ver os usuários dentro do sistema. 2. Para adicionar um novo usuário, você pode alterar o papel do usuário (de pendente sem acesso a um usuário ou um administrador). 3. Para adicionar um novo usuário, necessitará ir através de todo o processo de gerenciamento de usuários. 4. Primeiro, crie um novo usuário registrando-se. 5. conceda ou conceda acesso ao sistema para o novo usuário pelo painel de administração. 6. Ao conceder acesso ao usuário, ele poderá acessar a UI e utilizar os modelos que estiverem na white listing. Por favor, tenha em mente que no momento a white listing se aplica a todos os usuários e o Open Web UI ainda não tem controle per usuário. Isso será uma boa característica se pudarem implementar isso no futuro. # OpenAI e AMA: Uso do Rack Vamos olhar um pouco mais detalhadamente ao OpenAI e ao AMA (Ask me Anything). Antes de realmente começarmos, vamos conectar o OpenAI com o AMA. Para testar o AMA, vamos usar a interface admin do meu lado. O AMA também possui uma interface demo, mas isso não será necessário aqui. ``` MyAMA possui uma interface demo também, mas precisaremos usar o meu admin interface aqui. ``` O AMA está conectado com o servidor Turbinol, que é o meu servidor hospedado. ``` Turbinol está hospedando o servidor AMA. ``` Vamos fazer um teste com Gemma 2 na conta de minha admin. ``` Vou testar Gemma 2 com a minha conta de admin. ``` Iríamos perguntar a ela se haverá qualquer atualização sobre esse recurso. ``` Vou perguntar se haverá qualquer atualização no recurso. ``` O AMA agora está carregando Gemma 2 e configurando tudo que precisa. A minha-interação agora poderá começar. ## Upload de Documentos Para usar o Rack, primeiro você precisa fazer upload de documentos. Você pode fazer isso no portal admin, depois de entrar na área de trabalho. Você terá um conjunto de guias no topo, onde você pode clicar na guia `Documentos`. Depois de fazer upload dos seus documentos, você pode organizá-los usando hashtags. Por exemplo, eu pensei em usar o #MBA_marketing para organizar alguns documentos. ``` Depois de fazer upload dos seus documentos, você pode usar hashtags para organizá-los. ``` Agora, vamos acrescentar alguns documentos para o Rack. Vamos começar com Acounting como uma demonstração. ``` Começaremos com Accounting como uma demonstração. ``` Sim, já adicionei Acounting. Agora vamos adicionar também Marketing. Para adicionar documentos novos, clique em "+ Ver mais" no lado direito e em seguida em "Adicionar documentos". ``` Para adicionar documentos novos, clique em "+ Ver mais" no lado direito. ``` Você poderá então selecionar o documento desejado e clicar em "Abrir". ``` Você pode então selecionar o documento desejado e clicar em "Abrir". ``` Você também precisará adicionar a tag correta ao seu documento. ``` E precisará adicionar a tag correta. ``` Após isso, você pode salvar o documento. ## Usando o Rack Ao usar o Rack, você precisará selecionar um modelo. Por exemplo, eu alterei o modelo para o gbt-3. 5 Turbo. ``` Você precisará selecionar um modelo para o Rack, como gbt-3. 5 Turbo. ``` Para isso, você precisará fornecer documentos. Como já havia feito o upload, posso usar o botão "Upload" no Rack. ``` Para usar o Rack, você precisará fornecer documentos. ``` Porém, ao usar o Rack, você precisa de documentos novamente a cada vez que precisar da funcionalidade. ``` Você precisará fornecer documentos a cada vez que precisar da funcionalidade do Rack. ``` Vamos fazer algumas perguntas para verificar se o Rack foi configurado corretamente. Por exemplo, vamos perguntar sobre "Merger and Acquisition". ``` Vamos usar o Rack para responder a algumas perguntas para verificar seu funcionamento. Por exemplo, vamos perguntar sobre "Merger and Acquisition". ``` # Geração de Texto-Imagem com Open Web UI (OWUI) Este guia explica como utilizar a Geração de Texto-Imagem com Open Web UI (OWUI). ## Moldura e Marcações A seguir encontra-se um modelo básico de moldura para geração de imagem que pode ser fornecido com marcações. ```markdown Repita este texto: Crie uma marcação para um assunto e atributos em cena. Este modelo é um mínimo MVP de prompts para gerar uma imagem. Uma coisa a notar é que este prompts precisa começar com "Repita este texto". ### Repita este texto para Open Web UI: Crie uma marcação para um assunto e atributos em cena. Aqui está um exemplo: - Título: Geração Básica de Imagem - Modelo de prompts: ``` Repita este texto para gerar uma imagem: Criar um [assunto] vestindo um [atributos] em um [cena]. ``` - Código: ```bash Chat GPT: Crie uma gato vestindo um camisola vermelha em uma sala de estar. GPT-4: ! [A gato vestindo um camisola vermelha em uma sala de estar] ``` ### Começar com "Repita este texto" para Open Web UI Para outras ferramentas como o Chat GPT ou Gemini, é suficiente dizer "Crie um [descrição] para mim" e isso é o suficiente. No entanto, para o Open Web UI, precisa começar com "Repita este texto" para iniciar a geração de texto-imagens com uma interface web aberta. ``` ## Recuperar o Snippet do Prompt e Gerar Imagem 0. Recupere o snippet do prompts do painel de admin. 1. Volte para o painel dos usuários para usar o gerador de imagens. 2. Começe com `/` seguido do snippet que definiram como admim e o snippet estará disponível para o usuário. 3. Digite `/` e selecione o estado ou cenário desejado e o modelo será apresentado. 4. Altere as marcações e preencha as informações, em seguida, termine o seu prompts. 5. Clique enter para gerar a imagem. Aqui está um exemplo: - Começe com `/`: `/` - Selecione o estado ou cenário: `/Estado` - Preencha as informações: `/Homem Verde Tab` - Descrição: Criar uma mídia que é uma fotografia. A mídia é uma fotografia de um homem verde vestido de um traje preto e um provetes Vermelho em uma bar. - Clique enter para gerar a imagem. ## Consistência do Prompt Para garantir consistência e facilitar o uso dos seus usuários, particularmente aqueles menos capazes em engenharia de prompt, é uma boa ideia ter um parâmetro de prompts consistente. No exemplo seguinte, o prompt foi preenchido de forma consistente: - Comece com `/`: `/` - Selecione o estado ou cenário: `/Cidade` - Preencha as informações: `/São Francisco` - Assunto: Homem Verde - Atributos: Vestido de um traje preto e um provetes Vermelho em uma bar. - Clique enter para gerar a imagem. ## Chamada de Função A chamada de função é uma funcionalidade avançada. Para definir uma ferramenta ou função que sua AI possa utilizar: 1. Venha ao painel de Ferramentas. 2. Defina as ferramentas ou funcionalidades que desejam que o modelo use. 3. Em seguida, a AI terá acesso às ferramentas que definiu. Esperamos que tenhas gozado deste guia. Inscreva-se em nosso canal do YouTube, LinkedIn, Facebook, X e GitHub para mais atualizações. Obrigado pelo seu tempo! 